任何自主驾驶系统的核心任务是将感觉输入转换为驾驶命令。在端到端驾驶中,这是通过神经网络实现的,其中一个或多个摄像头是最常用的输入和低级驾驶命令,例如转向角,作为输出。但是,在模拟中显示了深度感应,以使端到端驾驶任务更加容易。在真实的汽车上,由于难以获得良好的空间和时间对齐传感器,将深度和视觉信息组合起来可能具有挑战性。为了减轻对齐问题,驱动器可以以深度,强度和环境辐射通道输出周围视图激光镜像。这些测量值来自相同的传感器,使它们在时间和空间中完全排列。我们证明,这种LIDAR图像足以完成实际车程的遵循任务,并且在测试条件下至少对基于摄像机的模型执行,并且需要在需要推广到新的天气条件时差异。在第二个研究方向上,我们揭示了非政策预测序列的时间平滑度与实际的上驾驶能力同样与实际使用的绝对误差息息相关。
translated by 谷歌翻译